Warum fällt die SSD aus? Gründe für SSD-Ausfälle.


Warum fällt die SSD aus?



SSDs (Halbleiterlaufwerks oder Festkörperspeichers) speichern Daten in Flash-NAND-Chips. Sie sind schneller und effizienter (das behaupten zumindest Hersteller und Verkäufer) als Festplatten. Sie sind leise und verbrauchen weniger Strom. Da sie Daten auf integrierten Schaltkreisen speichern, benötigen sie keinen komplexen, präzisen und fehleranfälligen Mechanismus.
Die Widerstandsfähigkeit von SSDs gegen mechanische Ausfälle ist in Marketingmaterialien zu einem Zuverlässigkeitsdogma geworden. Fallende Preise haben SSDs in den letzten Jahren sehr populär gemacht, und gleichzeitig hat die Realität den Mythos, daß sie fehlerfrei sind, brutal zerstreut. Theoretisch ist es möglich, elektronische Geräte zu konstruieren, die mehrere oder sogar mehrere Dutzend Jahre fehlerfrei funktionieren können, aber in der Praxis ist es nicht schwer, auf Computerkomponenten zu stoßen, die am ersten Betriebstag ausfallen. Und sehr oft ist es die SSD, die bereits bei der Installation des Betriebssystems die Zusammenarbeit verweigert. Warum also haben Festkörperspeichers eine so hohe Ausfallrate und inwieweit kann man ihnen als Datenträger vertrauen?



Datenspeicherung in SSD



Modifizierte NPN-Feldeffekttransistoren (FET) sind für die Datenspeicherung in Medien mit Flash-NAND-Chips zuständig (nicht nur SSDs, sondern auch USB-Sticks, Speicherkarten und Speicher, die in Geräten wie Smartphones eingebaut sind). Ein solcher Transistor besteht aus drei Elektroden – Bereichen des Halbleiters – zwei elektronenreichen (und daher negativ geladenen, daher die Bezeichnung „n“ für „negativ“), einer Quelle (oder Zufluß) und einem Abfluß (oder Senke), die durch einen elektronenarmen Bereich (positiv geladen – daher der Buchstabe „p“ für „positiv“) getrennt sind. In diesen Transistoren sind Elektronen die Träger, die für den Stromfluß verantwortlich sind. Zwischen Quelle und Abfluß befindet sich ein elektrisch isoliertes Gatter (oder Tor), das zur Steuerung des Transistors verwendet wird. Es gibt auch pnp-Transistoren, bei denen Quelle und Abfluß positiv und das Gatter negativ geladen sind. Diese Arten von Transistoren werden jedoch nicht in Flash-Chips verwendet.
Feldeffekttransistoren werden als unipolar bezeichnet, da der Strom in ihnen nur von Mehrheitsträgern getragen wird. Bei npn-Transistoren sind dies Elektronen und bei pnp die sogenannten Löcher. Neben unipolaren Transistoren finden sich in anderen Anwendungen auch bipolare Transistoren, bei denen elektrischer Strom sowohl von Mehrheits- als auch von Minderheitsträgern getragen wird. Bipolare Transistoren werden auch Sperrschicht- oder Schichttransistoren genannt.
Bei Feldeffekttransistoren entsteht unter dem Einfluß eines elektrischen Felds (deshalb wird dieser Transistor „Feldeffekttransistor“ genannt) ein Kanal namens n-Kanal, der den Elektronenfluß zwischen Quelle und Abfluß ermöglicht. Wenn wir jedoch Spannung an das Gatter anlegen, schließt sich der n-Kanal und der Strom zwischen Quelle und Abfluß hört auf zu fließen. Transistoren, bei denen der n-Kanal offen ist und sich schließt, wenn eine Spannung an das Gatter angelegt wird, werden als Verarmungskanaltransistoren bezeichnet, und in der Elektronik verwenden wir auch angereicherte Kanaltransistoren, bei denen das Anlegen einer Spannung an das Gatter zum Öffnen des Transistorkanals führt.
Um einen solchen Transistor für die nichtflüchtige Datenspeicherung zu verwenden, war es notwendig, das Gatter zu modifizieren. Es wurde in ein Steuergatter und, den wichtigsten Teil zur Speicherung von Informationen, ein Floating Gate unterteilt. Ein Floating Gate ist ein elektrisch isolierter Bereich, in dem sich elektrische Ladung ansammeln kann, die auch nach dem Trennen des Geräts von der Stromversorgung erhalten bleibt. Und genau darum geht es beim Speichern von Daten – sie nicht zu verlieren, wenn das Medium von der Stromversorgung getrennt wird.
Wenn wir im Floating Gate eine elektrische Ladung ansammeln, erreichen wir den Effekt des Schließens des n-Kanals, als ob wir eine Spannung an das Gatter angelegt hätten. Wenn das Floating Gate leer ist, ist der n-Kanal offen und der Strom kann frei zwischen Quelle und Abfluß fließen. Daher wird ein leeres Floating Gate normalerweise als logische Eins interpretiert und ein geladenes Floating Gate, das den n-Kanal schließt, als logische Null.



Datenadreßierung in Halbleiterlaufwerks



Aus Benutzersicht sind wir es gewohnt, Daten in den logischen Strukturen von Dateisystemen zu adreßieren. Jeden Tag verwenden wir Partitionen, Dateien und Verzeichniße. Wenn wir uns ein wenig für Computer interessieren, kennen wir auch Cluster und Sektoren. NAND-Chips wiederum interessieren sich wahrscheinlich nicht für Computer, da sie keine Ahnung von Sektoren haben.
LBA-Sektoren werden bei der Kommunikation zwischen verschiedenen Geräten und Software verwendet. Halbleiterlaufwerks akzeptieren Befehle zum Ausführen von Vorgängen an bestimmten LBA-Adreßen und geben sie an der externen Schnittstelle zurück, um die Kompatibilität mit Kommunikationsprotokollen wie dem ATA-Protokoll sicherzustellen. Die interne Kommunikation zwischen Controller und Speichersystemen erfolgt jedoch gemäß dem ONFI-Standard.
Gemäß diesem Standard werden Daten in Seiten und Blöcken adreßiert. Eine Seite ist die kleinste Einheit zum Lesen und Schreiben (Programmieren). Ihre Größe entspricht der Größe des Seitenregisters und erreicht derzeit ungefähr 16 kB. Ja, das entspricht 32 LBA-Sektoren mit jeweils 512 B, die der Controller als Antwort auf die Anforderung des Computers aus der entsprechenden Seite ausschneidet. Neben Benutzersektoren enthält die Seite auch redundante Informationen, in denen verschiedene Arten von Daten gespeichert sind, die für den ordnungsgemäßen Betrieb der Festkörperspeicher erforderlich sind. Die Struktur zum Anordnen von Benutzerdaten und redundanten Informationen innerhalb einer Seite wird als Seitenformat bezeichnet.
Woher weiß der Controller, auf welcher Seite sich der gesuchte Sektor befindet? Dafür ist das Subsystem zum Übersetzen logischer in physische Adreßen (FTL – Flash Translation Layer) verantwortlich, auf das wir später noch ein paar Mal zurückkommen werden. Die nächste Adreßierungseinheit ist ein Block von mehreren bis sogar mehreren Hundert Seiten. Dies ist die minimale Datenlöscheinheit.
Im Gegensatz zu magnetischen Medien können Flash-Systeme den vorherigen Inhalt nicht direkt überschreiben. Wir können nur Transistoren programmieren, deren Floating Gates zuvor gelöscht – von Elektronen entleert – wurden. Daher geben brandneue oder vollständig leere Chips, die auf dem Programmiergerät gelesen werden, den Wert 0xFF zurück. Dieser Wert gibt auch leere Blöcke und nicht programmierte Seitenenden zurück, wenn das Seitenformat solche nicht verwendeten Bereiche enthält.



Grundlegende Vorgänge und ihre Auswirkungen auf den Verschleiß von Flash-NAND-Chips



Da wir bei Flash-Chips nicht die physische Möglichkeit haben, vorhandene Inhalte direkt zu überschreiben, können wir nur leere Floating Gates von Transistoren schreiben (programmieren). Daher ist es notwendig, drei grundlegende Vorgänge zu unterstützen: den gewünschten Inhalt zu programmieren, ihn zu lesen und veraltete Daten zu löschen. Die Bearbeitung von der physischen Seite umfaßt das Lesen des ursprünglichen Inhalts in den Puffer, seine Änderung und das Speichern an einem physisch anderen Ort.
Hier berühren wir erneut die Flash Translation Layer, die die Übertragung von LBA-Adreßen an einen anderen physischen Ort und ihres ursprünglichen Speicherorts zum Löschen registrieren muß. Die gelöschten Blöcke können bei nachfolgenden Schreibvorgängen verwendet werden, und dann werden ihnen in den Übersetzungstabellen neue geeignete LBA-Adreßen zugewiesen.
Flash-NAND-Chips sind so konzipiert, daß sie sich allmählich abnutzen. Dies hängt mit der Art und Weise zusammen, wie Elektronen beim Programmiervorgang in die Floating Gates eingefügt und beim Löschen freigegeben werden. Da das Floating Gate durch einen Isolator elektrisch vom Rest des Transistors getrennt ist, müßen Elektronen, wenn wir sie darin platzieren oder freigeben möchten, die durch den Isolator erzeugte Potenzialbarriere überwinden. Diese Aufgabe wird normalerweise mithilfe des aus der Quantenmechanik bekannten Fowler-Nordheim-Tunnelphänomens gelöst.
Das Fowler-Nordheim-Tunneln nutzt die Welleneigenschaften von Elektronen, um die Potenzialbarriere zu überwinden, erfordert jedoch die Verwendung höherer Spannungen, die mehrere oder sogar bis zu 20 V erreichen. Dieser Vorgang ist mit Energieverlusten verbunden, die in Form von elektrischer Arbeitswärme (Joule-Wärme) abgeführt werden und den Isolator belasten, was mit der Zeit zu seiner Beschädigung führt. Der beschädigte Isolator hält die Ladung im Floating Gate nicht mehr, was zum Entweichen von Elektronen und damit zu Datenverlust führt.
Beim Lesen wird eine Spannung zwischen Quelle und Abfluß angelegt (wir prüfen, ob der n-Kanal offen oder geschloßen ist und damit indirekt, ob das Floating Gate leer oder geladen ist). Wenn der Transistor offen ist, interpretiert der Controller dies als logische Eins, und wenn er geschloßen ist, als Null. Dies ist ein Vorgang, der den Floating-Gate-Isolator nicht belastet und daher für die Lebensdauer der Schaltung neutral ist. Aus diesem Grund wird die Lebensdauer von NAND-Chips anhand der Anzahl der Programmier-/Löschzyklen (P/E) gemeßen..



Wie wäre es, die Anzahl der im Transistor gespeicherten Bits zu erhöhen?



Flash-NAND-Chips waren Anfangs sehr teuer, daher überrascht es nicht, daß die Hersteller nach einer Möglichkeit suchten, das Kapazitäts-Preis-Verhältnis zu verbeßern. Eine Möglichkeit, die Kapazität der Chips zu verdoppeln bestand darin, zwei Datenbits in einem Transistor zu platzieren. Dieser Effekt kann erreicht werden, indem das Floating Gate auf einen bestimmten Pegel aufgeladen wird, was ein entsprechend kontrolliertes Schließen des n-Kanals bewirkt. Um zwei Bits in einem Transistor speichern zu können, müßen wir zwischen 4 logischen Zuständen (00, 01, 10 und 11) und daher zwischen 4 diesen Zuständen entsprechenden Ladungspegeln des Floating Gates unterscheiden.
Es ist natürlich, daß den Buchhaltern diese Idee gefiel und sie von den Ingenieuren erwarteten, daß sie die Multi-State-Technologieweiterentwickeln würden, aber so einfach war es nicht. Platziert man ein drittes Bit im Transistor, verdoppelt das die Kapazität des Chips nicht mehr, sondern erhöht sie nur um die Hälfte. Was paßiert also mit den Ladungspegeln des Transistors? Ja, wir müßen ihre Zahl weiterhin verdoppeln. Wenn wir bis zu drei Bits in einem Transistor unterbringen wollen, müßen wir 8 Ladungsniveaus unterscheiden, die den logischen Werten von 000 bis 111 entsprechen. Und natürlich führt das Hinzufügen jedes weiteren Bits zum Transistor zu einer immer geringeren Erhöhung der Kapazität des Systems, während gleichzeitig die erforderlichen unterscheidbaren Ladungsniveaus des Floating Gate exponentiell ansteigen.
Das sich verschlechternde Signal-Rausch-Verhältnis, das aus der immer kleiner werdenden Lücke zwischen den Spannungswerten resultiert, die nachfolgende logische Zustände darstellen, begünstigt Lesefehler und Bitfehler. Auch die Programmierung der Transistoren muß immer präziser erfolgen, da auch beim Schreiben Fehler auftreten können. Das Einbringen von Elektronen in Floating Gates mithilfe der Quantenmechanik ermöglicht keine wiederholbare Präzision und Genauigkeit. Es ist höchstens möglich, diese Gatter mit ungefähr der benötigten Anzahl an Elektronen zu laden. Dies bedeutet, daß viele Floating Gates Ladungen mit Werten enthalten, die den benachbarten logischen Zuständen ähnlich sind, und einige, die andere als die beabsichtigten Zustände darstellen.
Theoretisch wäre es möglich, auf jeden Schreibfehler mit einer Wiederholung des Vorgangs zu reagieren, aber in der Praxis ist dies nicht möglich. Beim Neuprogrammieren einer Seite mit Tausenden von Bytes, also Zehntausenden von Bits, ist es sehr wahrscheinlich, daß beim nächsten Schreiben einige Fehler erneut auftreten. Möglicherweise wird es daher nie zu einem positiven Abschluß der Datenaufzeichnung kommen. Vergeßen wir nicht, daß jeder nachfolgende Schreibvorgang den Chip abnutzt und uns dem endgültigen Versagen näher bringt. Wenn die Anzahl der Fehler daher akzeptabel gering ist, müßen wir das Streben nach Perfektion aufgeben und sich auf die Mathematik der Korrektur ECC – Error Correction Code – verlaßen.
Als Chips auf den Markt kamen, die die Speicherung von zwei Bits in einem Transistor angeboten, wurden ältere Systeme, die ein Datenbit pro Transistor speicherten, als SLC (Single Level Cell) bezeichnet, während Systeme mit zwei Bits pro Transistor als MLC (Multi Level Cell) bezeichnet wurden. Die nächsten Chips, die drei Bits in jedem Transistor speichern, sind TLC (Triple Level Cell). Die neuesten, derzeit erhältlichen Flash-NAND-Chips tragen die Bezeichnung QLC (Quad Level Cell) und speichern 4 Bits in jedem Transistor. Und da die Bezeichnung MLC manchmal auch allgemein für alle Arten von Mehrzustandsspeichern verwendet wird, benutzen einige weniger ehrliche Verkäufer diese Abkürzung auch zur Bezeichnung minderwertiger TLC- und QLC- Chips.
Das Platzieren nachfolgender Informationsbits im Transistor verringert nicht nur das Signal-Rausch-Verhältnis, sondern wirkt sich auch negativ auf die Leistung und Lebensdauer von Flash-NAND-Chips aus. Zum Lesen ist ein mit mehreren Referenzspannungswerten erforderlich, was zeitaufwändig ist. Das Lesen erfordert einen Vergleich der Transistor-Offenspannung mit mehreren Referenzspannungen, was zeitaufwändig ist. Auch das Programmieren erfolgt in mehreren Schritten, was nicht nur eine längere Betriebszeit, sondern auch eine stärkere Belastung der Floating-Gate-Isolatoren zur Folge hat. Als Folge davon degradiert der Isolator schneller und die Lebensdauer der Systeme, die bei SLC-Speicher 100.000 Programmier-/Löschvorgänge überschritt, sinkt bei MLC-Speicher auf ein immer noch vernünftiges Niveau von mehreren Tausend P/E-Zyklen. Bei TLC-Speicher liegen die von den Herstellern angegebenen Werte normalerweise im Bereich von 3.000 bis 5.000 Zyklen, aber die schwächsten Systeme dieser Klaße halten nur etwa 1.500 Zyklen aus. Bei den neuesten QLC-Speichern sinkt ihre Lebensdauer auf mehrere Hundert (normalerweise etwa 600 Programmier-/Löschvorgänge).
Aufgrund des drastischen Rückgangs der Haltbarkeit von NAND-Chips greifen die Hersteller auf einen Marketingtrick zurück, bei dem sie Informationen über die Ressourcen der Programmier-/Löschvorgänge durch den Parameter TBW (Total Bytes Written) ersetzen. Die Information, daß eine 1-TB-SSD eine TBW von 1,5 PB hat, wird sicherlich viel mehr Vertrauen erwecken, als die Information, daß die darin verwendeten Systeme eine Lebensdauer von eineinhalbtausend P/E-Zyklen haben. Wir können diese Lebensdauer berechnen, indem wir den TBW-Parameter durch die Medienkapazität dividieren. Und vergeßen wir nicht, daß die kleinste Aufzeichnungseinheit eine Seite ist, oft 8 oder 16 kB, sodaß wir diese geschriebenen Bytes normalerweise viel schneller verlieren, als es auf den ersten Blick erscheinen mag.
Trotz der exponentiell wachsenden Probleme im Zusammenhang mit dem Auftreten von Bitfehlern und der Lebensdauer der Chips kündigen einige Hersteller bereits die Einführung von Systemen an, die 5 Bits in jedem Transistor speichern und mit dem PLC-Symbol gekennzeichnet werden sollen. PLC-Chips müßen 25=32 Ladungsstufen unterscheiden können. Bei einer Nennversorgungsspannung von 3,3 V bedeutet dies, daß nachfolgende logische Zustände alle ~0,1 V unterschieden werden müßen. Gleichzeitig ist kaum anzunehmen, daß die Lebensdauer solcher Systeme 100 Programmier-/Löschvorgänge überschreiten wird. Für ein wiederbeschreibbares Medium ist das überhaupt nicht viel.



Reduzierung der Transistorgröße.



Dies ist seit den Anfängen der modernen Elektronik der Fall – schon vor dem Aufkommen integrierter Schaltkreise gab es Bestrebungen, die Größe der Komponenten zu reduzieren. Die Reduzierung des lithographischen Prozeßes ermöglicht die Herstellung immer billigerer, kleinerer, weniger stromverbrauchender, weniger wärmeerzeugender und gleichzeitig immer effizienterer integrierter Schaltkreise mit einem höheren Integrationsgrad. Dieser Prozeß gilt auch für Flash-Chips. Wenn wir die Größe der Transistoren reduzieren, können wir mehr davon in ein integriertes Schaltkreispaket mit standardisierten Abmeßungen packen und so deßen Kapazität erhöhen.
Aber ein solcher Prozeß kann nicht bis ins Unendliche entwickelt werden. Hier stoßen wir auf Einschränkungen in Form der physikalischen Größe der Atome. Beispielsweise hat ein Siliziumatom (Si) einen Durchmeßer von weniger als einem Viertel Nanometer. Bei Transistoren mit Größen von mehreren nm ist es sehr schwierig, ihre Produktion von Laboren auf Fabrikbedingungen der Massenproduktion zu übertragen.
Ein weiteres Hindernis für die Reduzierung der Transistorgröße ist die Notwendigkeit, im Lithographieprozeß Licht mit immer kürzeren Wellenlängen zu verwenden. Schon jetzt ist es erforderlich, Wellenlängenbereiche zu verwenden, die kaum innerhalb der Grenzen des extremen Ultravioletts liegen. Wenn Transistoren noch kleiner gemacht werden sollen, wird es notwendig sein, Röntgenstrahlen zu verwenden. Die Verwendung von Wellen mit immer höheren Frequenzen erfordert auch eine immer sauberere Umgebung. Daher müßen Herstellungsprozeße mit tiefem Ultraviolett unter Vakuumbedingungen durchgeführt werden.
Dieses Problem haben auch Prozeßorhersteller, denen es aufgrund von Produktionsschwierigkeiten und großen Abfallmengen immer schwerer fällt, die Markterwartungen zu erfüllen. Das Mooresche Gesetz, das jahrzehntelang besagte, daß sich die Anzahl der Transistoren in einem Chip alle anderthalb Jahre verdoppelt, wurde kürzlich korrigiert. Derzeit geht man davon aus, daß sich die Anzahl der Transistoren in einem Chip alle zwei Jahre verdoppelt. Es ist möglich, daß das Mooresche Gesetz bald überhaupt nicht mehr funktioniert.
Die Reduzierung der Größe eines Transistors bedeutet auch, die Größe seiner Komponenten zu reduzieren, einschließlich der Dicke der Isolierschicht und des Volumens des Floating Gate. Die Dicke des Isolators beeinflußt seine Haltbarkeit und seine Wirksamkeit bei der Beibehaltung der im Floating Gate angesammelten Ladung. Dies sind entscheidende Faktoren für eine zuverlässige Datenspeicherung. Eine zu dünne Isolatorschicht degradiert nicht nur leichter bei Lösch- und Programmiervorgängen, sondern lässt auch einzelne Elektronen entweichen, was wiederum zu einer derartigen Änderung des Ladungszustands führen kann, daß der Inhalt beim Lesen als anderer logischer Zustand interpretiert wird.
Das Volumen des Floating Gate, genauer gesagt die Anzahl der darin enthaltenen Atome, hat ebenfalls einen erheblichen Einfluß auf die Informationsspeicherung. Negativ geladene Elektronen neigen dazu, sich gegenseitig abzustoßen. Dies bedeutet, daß sie trotz ihrer geringen Größe nicht in großen Mengen in das Floating Gate gestopft werden können. Elektronen müßen sich in der äußeren Valenzschale der Atome befinden, wo ihre Anzahl bei den meisten Atomarten maximal 8 pro Atom betragen kann. Dies ist eine Einschränkung, die sich aus der Quantenmechanik ergibt – der Pauli-Regel, die besagt, daß jedes Orbital maximal zwei Elektronen enthalten kann. Silizium, aus dem Transistoren hergestellt werden, hat 4 solcher Orbitale auf seiner äußeren Valenzschale.
Die empfohlene Dicke der Isolatorschicht für eine dauerhafte und sichere Datenspeicherung beträgt ungefähr 4 nm. Bei Chips, die in 15-nm-Lithografie hergestellt werden, sinkt sie auf ungefähr 2 nm. Die Anzahl der Elektronen, die im Floating Gate gespeichert werden können, verringert sich ebenfalls von einigen auf ungefähr eintausend. In der Praxis bedeutet dies, daß bei den neuesten TLC- und QLC- Chips das Entweichen von nur ein paar Dutzend Elektronen dazu führt, daß ein falscher logischer Zustand gelesen wird. Und Elektronen entweichen umso leichter, je dünner der Isolator ist. Es dürfte daher nicht überraschen, daß die höchste Ausfallrate bei Systemen auftritt, die in Lithografie unter 20 nm hergestellt werden und gleichzeitig drei oder vier Bits in einem Transistor speichern.



3D-NAND.



Eine weitere Möglichkeit, die Kapazität von NAND-Chips zu erhöhen, besteht darin, Transistoren in mehreren Schichten übereinander zu stapeln. Dadurch kann die Speicherkapazität vervielfacht werden, ohne die Oberfläche des Chips zu vergrößern. Diese Lösung ist erst vor relativ kurzer Zeit aufgetaucht, obwohl die Idee selbst so trivial erscheinen mag, daß sie schon vor langer Zeit hätte auftauchen sollen. Nun, diese Lösung ist nicht ohne Nachteile.
Das erste Problem ist die Induktion zwischen benachbarten Transistoren. Sie trat auch bei zweidimensionalen planaren Chips auf, was zur Entstehung parasitärer Kapazitäten führte und das Risiko von Bitfehlern mit sich brachte. Was paßiert, wenn im Chip weitere Schichten erscheinen? Zusätzlich zur Induktion durch die in benachbarten Transistoren in der Ebene angesammelten Ladungen gibt es eine zusätzliche Induktion durch die Ladungen in den darüber und darunter liegenden Schichten.
Ein weiteres Problem ist die bereits erwähnte Joule-Wärme, die insbesondere beim Löschen und Programmieren der Daten freigesetzt wird. Wir wißen bereits, daß sie den Abbau des Floating-Gate-Isolators fördert. Daher sollten sie so schnell wie möglich an die Umgebung abgegeben werden.
Die Wärmeabgaberate hängt von vielen Faktoren ab, der wichtigste davon ist die Wärmeabgabefläche. Aus diesem Grund haben die besten Kühlkörper viele dünne Platten, die eine große Oberfläche ergeben. Und mit Hilfe eines Kühlkörpers können wir die Oberfläche der Wärmeableitung vom Chip vergrößern. Bei mehrschichtigen Chips besteht der Kern des Problems jedoch darin, eine Wärmeansammlung im Inneren des Chips zu verhindern und sie zwischen den Schichten richtig abzuleiten.
Beide Probleme verschärfen sich, wenn die Anzahl der Schichten zunimmt und der Abstand zwischen den Schichten abnimmt. Das elektromagnetische Feld nimmt mit dem Quadrat der Entfernung ab, d. h. je kleiner die Abstände zwischen den Transistoren sind, desto stärker sind die induktiven Wechselwirkungen zwischen den in ihnen gespeicherten Ladungen. Thermische Wechselwirkungen sind auch zerstörerischer, wenn die Größe der in der Siliziumstruktur der Systeme platzierten Objekte reduziert wird.



Der häufigste Ausfallmechanismus von Halbleiterdatenträgern.



Wir wißen bereits, daß Flash-NAND-Chips während des Betriebs verschleißen, was die Hauptursache für Bitfehler ist. Wenn die Anzahl der Bitfehler die Möglichkeit übersteigt, sie mit ECC-Codes zu korrigieren, gilt ein bestimmter Block normalerweise als beschädigt, wird in die Defektliste aufgenommen und vom weiteren Betrieb ausgeschloßen. Bis vor kurzem waren die Algorithmen zur Defektverwaltung so effektiv, daß es praktisch keine Situationen gab, in denen vor einem Fehler Warnsignale wie Leseprobleme und Schäden an Dateien oder logischen Strukturen auftraten. Und dennoch treten Fehler normalerweise plötzlich auf - der Computer setzt sich plötzlich zurück oder lädt das Betriebssystem nach dem Start nicht, und ein Moment der Diagnose ermöglicht es Ihnen, festzustellen, daß das BIOS die SSD nicht sieht oder sie unter einem seltsamen Namen und mit null oder verdächtig geringer Kapazität erkennt.
Dies liegt daran, daß nicht nur die Blöcke, in denen Benutzerinformationen gespeichert sind, abgenutzt und beschädigt sind, sondern auch die Blöcke, die Übersetzungstabellen enthalten, die für die korrekte Datenadreßierung wichtig sind. Wenn das Problem Einträge in solchen Tabellen betrifft, ist es nicht möglich, logische Adreßen den entsprechenden physischen Adreßen korrekt zuzuweisen, und der Controller ist nicht in der Lage, ein Abbild logischer Strukturen korrekt zu erstellen oder Zugriff auf Benutzerdateien zu gewähren. Wenn in diesem (oder einem anderen wichtigen) Teil der Firmware Fehler auftreten, unterbricht der Controller den Zugriff auf die NAND-Chips. Anstatt des SSD-Modells bleibt es als Reaktion auf die BIOS-Anforderung zur Vorlage der Kennung im Status „Beschäftigt“ (suspendiert) oder im sogenannten technologischen Pass (z. B. SATAFIRM S11) und gibt anstelle der Kapazität der gesamten Festkörperspeicher gerne die Kapazität eines verfügbaren Puffers zurück.